IMI-Standpunkt 2023/049

Gaza: KI-basierte Bombardierung

Technologischer Solutionismus im sog. „Nahost-Konflikt“

von: Christoph Marischka | Veröffentlicht am: 8. Dezember 2023

Drucken

Hier finden sich ähnliche Artikel

Mit wie vielen Bomben und Raketen Israel tatsächlich den dicht besiedelten Gaza-Streifen mit seiner Bevölkerung von 2,2 Mio. Menschen – davon fast die Hälfte minderjährig – bislang beschossen hat, ist sicher auch Teil der Propagandaschlacht und damit schwer verlässlich festzustellen. In den ersten sechs Tagen nach den Massakern der Hamas und ihrer Verbündeten am 7. Oktober 2023 hatte jedoch die israelische Luftwaffe selbst die Zahl der bislang abgeworfenen Bomben auf Gaza mit 6.000 beziffert,1 also durchschnittlich 1.000 pro Tag, knapp 42 pro Stunde. Die Zahl der hierbei Getöteten wurde von den Gesundheitsbehörden Gazas – die der Hamas unterstehen – am 12. Oktober mit 1.417 angegeben, diejenige der Verletzten mit 6.268.2 Im Lagebericht der Weltgesundheitsorganisation (WHO) vom 5. November wurde die Zahl der Getöteten in Gaza nach einem knappen Monat mit 9.770 angegeben, davon 40% Kinder und 22% Frauen. Zu diesem Zeitpunkt ging die WHO von 24.000 Verwundeten (welche die Krankenhäuser „fluteten“) und von 1,5 Mio. Binnenvertriebenen aus – mehr als die Hälfte der Bevölkerung. Über 16.000 Wohneinheiten galten damals bereits als zerstört und 160.000, 45% Prozent des gesamten Bestandes in Gaza, galten bereits damals als beschädigt.3 Vor allem arabische und türkische Medien sprachen etwa zur selben Zeit von insgesamt bis zu 25.000 Tonnen Sprengstoff, den Israel in Gaza bereits eingesetzt habe und verglichen diese mit der Sprengkraft von Atombomben. Laut Aljazeera habe Israel nach eigenen Angaben bis zum 1. November 12.000 Ziele angegriffen, das wären knapp 500 pro Tag.4 Das war, bevor die Luftangriffe auch auf den Süden Gazas massiv ausgeweitet wurden.

Vermeintlich präzise Zielauswahl

In offiziellen Stellungnahmen und gegenüber ihren internationalen Verbündeten versicherten israelische Militärs und Politiker*innen mehrfach, die Vorgaben des humanitären Völkerrechts einzuhalten und die Verhältnismäßigkeit im Einzelfall zu prüfen. Besonders hervorgehoben wird dabei an vielen Stellen das Korps des Militärstaatsanwaltes (MAGC) und dessen Abteilung für Internationales Recht (ILD). Hierzu zitierte etwa die Zeitung Welt am 10. November 2023 einen Juristen des US-Militärs: „Das MAG-Korps der IDF [Israel Defence Forces, die israelischen Streitkräfte] ist eine außergewöhnlich kompetente Gruppe von Beratern in Sachen Kriegsvölkerrecht, und es ist so organisiert, dass sichergestellt ist, dass IDF-Kommandeure in Echtzeit Rechtsberatung höchster Qualität erhalten. […] Sobald Feindseligkeiten ausgebrochen sind, wird die ILD mit zusätzlichen Experten für Kriegsvölkerrecht verstärkt, was aktive Offiziere und Reservisten einschließt, um die ILD zu verstärken“. Dabei handele es sich um die Operationelle Rechtseinheit (OLA): „Mitglieder der OLA entscheiden, ob vorgeschlagene Ziele als militärische Ziele qualifiziert werden können, identifizieren mögliche Bedenken bezüglich der Verhältnismäßigkeit und geben Input, was andere völkerrechtliche Verbote, Beschränkungen oder Pflichten anbelangt“.5 Am 29. Oktober hatte der ehemalige Armeechef und Premierminister Israels, Ehud Barak, auch im Hinblick auf den aktuellen Krieg gegenüber der Süddeutschen Zeitung versichert: „Jedes Ziel wird mehrfach vorher überprüft, es gibt juristischen Rat. Es werden alle möglichen Abwägungen getroffen. Es ist nicht einfach“.6 Der Chefankläger des Internationalen Strafgerichtshofs, Karim Khan, übernahm noch Anfang Dezember diese Erzählung: „Wie ich bereits zuvor gesagt habe, hat Israel ausgebildete Juristen, die Kommandanten beraten, und ein robustes System, das die Einhaltung des internationalen humanitären Rechtes garantieren soll“.7 Die Welt hat allerdings in ihrem Beitrag eingeräumt: „Wie die IDF konkret Ziele auswählen und welche Abwägungen einfließen, um Rechtskonformität herzustellen, unterliegt der Geheimhaltung.“

Zielvorschläge durch Künstliche Intelligenz

Nun haben zunächst die beiden linken israelisch(-palästinsisch)en Medienprojekte +972Mag und LocalCall und kurz darauf auch der britische Guardian8 auf der Grundlage von Gesprächen mit Angehörigen des israelischen Sicherheitsapparates Artikel veröffentlicht, wonach bei der Zielauswahl auch im großen Maßstab Künstliche Intelligenz (KI) zum Einsatz käme. Der Guardian verweist dabei auch auf eine kurze Stellungnahme auf der Homepage der IDF, wonach diese ein KI-System namens ‚Habsora‘ einsetze, um „Ziele in großer Geschwindigkeit zu identifizieren“. Vor dem aktuellen Krieg habe der ehemalige Generalstabschef der IDF, Aviv Kochavi, in einem Interview behauptet, bereits im kurzen Krieg gegen die Hamas von 2021 hätten es die KI Systeme ermöglicht, 100 Ziele am Tag zu produzieren – gegenüber 50 pro Jahr in der Zeit zuvor. Alle drei Beiträge legen letztlich nahe, dass die Ziele zumindest im aktuellen Krieg meist von den KI-Systemen vorgeschlagen und dann noch – irgendwie – von Militärs geprüft würden, bevor sie tatsächlich angegriffen würden. Die Quote der durchgeführten Angriffe habe laut Aviv Kochavi 2021 bei 50% gelegen. Nun zitiert der Guardian verschiedene Quellen aus dem israelischen Sicherheitsapparat, wonach jeder KI-generierte Zielvorschlag auch einen Datensatz enthalte, der den „collateral damage score“ angebe und auf einem Algorithmus basiere, der abschätze, wie viele „Zivilisten“9 sich noch im angegriffenen Gebäude befänden. Weiter wird dort angegeben, dass dieselbe oder eine andere Einheit der IDF in den vergangenen Jahren eine Datenbank mit 30.000 bis 40.000 Identitäten erzeugt hätte, bei denen der Verdacht bestehe, Angehörige der Hamas zu sein. Das übersteigt um etwa ein Drittel die von US-Geheimdiensten geschätzte Gesamtzahl der Hamas-Angehörigen und v.a. die ihres „harten Kerns“ um ein Vielfaches. In der Vergangenheit seien nur höherrangige Hamas-Angehörige angegriffen worden, wenn von einer größeren Zahl ziviler Opfer ausgegangen worden wäre, nun gelten offenbar auch mutmaßliche Aufenthaltsorte niederrangiger Funktionär*innen der Hamas als legitime Ziele. Innerhalb der entsprechenden Abteilung herrsche eine Wahrnehmung vor, dass man danach beurteilt werde, wie viele Ziele man identifiziere, so eine Quelle, die dort früher gearbeitet habe. Danach betrachte nochmal ein Mensch kurz die Vorschläge, habe aber nicht viel Zeit für die Entscheidungsfindung, heißt es weiter beim Guardian, der dazu passend noch eine Forscherin des Friedensforschungsinstituts SIPRI zum sog. ‚Automation Bias‘ zitiert: Die Tendenz, dass Handlungsvorschlägen komplexer Systeme auch dann gefolgt wird, wenn man ihre Grundlagen nicht verstehen und nachvollziehen kann.

Ethik und Völkerrecht

Mittlerweile haben auch verschiedene deutsche Medien die Berichte des +972 Mag, LocalCall und des Guardian zur KI-basierten Zielauswahl aufgegriffen, darunter Kai Biermann in der Wochenzeitung Zeit,10 welcher ebenfalls eine Zunahme ziviler Opfer im aktuellen Krieg und einen Zusammenhang mit dem Einsatz von KI in der Zielerkennung nahelegt. Darüber hinaus spricht er „technische und vor allem ethische Probleme“ an: „Denn die Entscheidungen solcher Systeme sind nicht mehr einfach nachvollziehbar. Dafür sind die Datenmengen zu groß und die Verfahren zu komplex. Noch schwieriger wird es, wenn der gesamte Prozess so wie in Israel geheim ist. Eine Beurteilung, ob eine Entscheidung ethisch gerechtfertigt ist oder nicht, ist damit kaum möglich. Auch Fehler der Systeme lassen sich kaum erkennen, im Zweifel auch nicht für jene, die sie bedienen.“ Die Formulierung des „Fehlers im System“ ist dabei durchaus passend, weil sie offen lässt, ob damit nur das technische System an sich, oder dessen Einbettung in eine politische und militärische Struktur, also etwa die Erwartungen und Annahmen des Bedienpersonals und die Zielvorstellung der politischen Verantwortlichen gemeint sind. Dass solche Prozesse geheim sind, dürfte allerdings keine Ausnahme in Israel und im aktuellen Krieg sein, sondern durchaus der Regelfall.

Zur Geheimhaltung allerdings gibt es eine interessante Bemerkung des Journalisten Yuval Abraham, der die KI-Zielerkennung öffentlich und zum Thema gemacht hat, gegenüber Democracy Today.11 Dort betont er, dass er als Journalist in Israel einer militärischen Zensur unterliege, seine Veröffentlichung also vom Militär sozusagen genehmigt worden sei. Er, sowie der Guardian, berufen sich auf mehrere aktive und ehemalige Quellen des israelischen Sicherheitsapparates. Dadurch ergibt sich insgesamt der Eindruck, dass es dort zumindest keine großen Bemühungen und Widerstände dagegen gab, den Einsatz von KI bei der Zielauswahl im aktuellen Krieg bekannt werden zu lassen.

Das könnte damit zusammenhängen, dass die völkerrechtlich an sich gebotene Abwägung von Luftangriffen, die absehbar zivile Opfer fordern werden, sich in der aktuellen Kriegführung in Gaza ohnehin nicht halten lassen wird. Dagegen sprechen nicht nur die Luftaufnahmen nahezu vollständig zerstörter Wohnviertel, der Anteil der zerstörten Wohneinheiten am Gesamtbestand, die Alters- und Geschlechtsstruktur der bestätigten Toten und – nicht zuletzt – die Gesamtzahl der angegriffenen Ziele: in den ersten sechs Tagen 6.000, 12.000 in den ersten drei Wochen. Eine im Einzelfall abwägende, gar juristische Prüfung der völkerrechtlich gebotenen Verhältnismäßigkeit lässt sich dabei plausibel nicht argumentieren. Der Einsatz von KI kann hier – bei aller Empörung, die er im ersten Moment hervorrufen mag – auch als Teil einer (völkerrechtlichen) Legitimation verstanden werden. So hat die z.B. die Times of Israel in einem ausführlichen Beitrag zur Frage, ob die Luftangriffe auf Gaza mit dem Völkerrecht vereinbar sind, prominent darauf hingewiesen, dass nicht das Ergebnis, sondern die vorliegenden Informationen darüber entscheiden würden, ob ein Einsatz nachträglich als völkerrechtskonform oder als Kriegsverbrechen einzustufen wäre. Zitiert wird hier der Jurist Aurel Sari mit den Worten: “Wenn sich herausstellt, dass Ihre Informationen falsch waren oder eine Waffe einen Defekt hatte oder andere Umstände dazu geführt haben, dass es zu mehr zivilen Opfern kam, als angenommen, dann ist das keine Verletzung des [internationalen] Rechts“.12 Das ist im Prinzip zutreffend; der (vermeintliche) Informationsstand des Kommandierenden spielte z.B. auch in Deutschland eine zentrale Rolle bei der Einordnung des „Massakers von Kundus“ von 2009 und die Straffreiheit (und anschließende Karriere) des militärisch Verantwortlichen, des damaligen Oberst Georg Klein. Hinzuzufügen wäre, dass in Israel (als „Startup Nation“) und dem israelischen Militär ein insgesamt technologiefreundliches und disruptives Mindset existiert, das sich nicht nur auf den Einsatz von Technologien, sondern auch die (vermeintliche) „Weiterentwicklung“ des Völkerrechts bezieht. Hierzu beispielhaft noch ein Zitat aus dem bereits mehrfach angesprochenen Beitrag aus der Welt, es stammt vom Leiter der IDL, der Abteilung für Internationales Recht bei der israelischen Militärstaatsanwaltschaft: „Israel hat, wie einige andere Staaten, das Erste Zusatzprotokoll der Genfer Konventionen nicht unterzeichnet, deshalb ist internationales Gewohnheitsrecht die Rechtsgrundlage, auf die wir uns beziehen, wenn wir in Sachen Kriegsvölkerrecht beraten – besonders wenn es darum geht, wie man sich im Kriegsfall zu verhalten hat.“ Das Gewohnheitsrecht zeichnet sich dadurch aus, dass es flexibler ist und seine Entwicklung durch die (vermeintliche) Akzeptanz neuer Normen durch (führende) Staaten erfolgt. Der Einsatz Künstlicher Intelligenz bei der Zielfindung in Gaza könnte somit auch zur Herausbildung einer neuen Sichtweise beitragen, wonach Kriegsverbrechen keine sind, wenn sie auf die Empfehlung einer Künstlichen Intelligenz zurückgehen.

Nachtrag zum Sprachgebrauch und zum „Auslassungsfehler“

Sowohl die israelisch-palästinensichen Quellen wie auch Democracy Now und der Guardian nutzen im Hinblick auf die Abteilung zur (KI-gestützten) Zielerkennung der israelischen Streitkräfte die Vokabel einer „Mass assassination factory“, Kai Biermann in der Zeit benutzt im Titel in Anführungszeichen den Begriff „Zielfabrik“. Eine originalgetreue Übersetzung des englischen Begriffs erscheint im deutschen Sprachraum problematisch und unangebracht und ließe sich auch im Original kritisieren. Ein weiterer Aspekt, der v.a. im Interview bei Demoacracy Today auffällt, ist die lose Verknüpfung mit der Nachricht, dass zumindest einzelne Abteilungen des israelischen Sicherheitsapparates im Vorfeld über Angriffspläne der Hamas informiert gewesen seien. Die waren jedoch nicht mit einem konkreten Datum verbunden und wurden von höheren Stellen als „überambitioniert“ und unwahrscheinlich angenommen. Mittlerweile wurde von offiziellen Stellen bekannt gegeben, man wolle auffällige Bewegungen an den Aktienmärkten untersuchen, die auf Vorwissen über den Angriff der Hamas und ihrer Verbündeten hindeuteten. Auch diese hätten theoretisch bereits im Vorfeld bemerkt werden können.

Anstatt Verschwörungsnarrativen Vorschub zu leisten, sollen hier abschließend zwei Konzepte ins Spiel gebracht werden, die einen abstrakteren Zusammenhang zwischen den genannten Ereignissen andeuten. Das eine besteht in einem Auslassungsfehler (‚omission failure‘). Streng genommen ist er Teil des bereits angesprochenen Automation Bias: Wenn man sich zu sehr auf KI-Systeme verlässt, übersieht man auch das, was diese nicht erkennen oder designbedingt gar nicht erkennen können. Damit lässt sich womöglich erklären, warum die Warnungen einer Beobachtungseinheit (die angeblich nur aus Frauen* besteht) vor groß angelegten Anschlagsplanungen untergehen und (offenbar) nicht in die Planung einflossen, die sich womöglich zu sehr an technischen bzw. KI-gestützten Analysen und Prognosen orientiert. Die israelische Debatte um das Versagen der Sicherheitskräfte im Vorfeld des 7. Oktobers ist diesbezüglich durchaus interessant: An vielen Stellen wird nun diskutiert oder festgestellt, man habe sich bei der Grenzüberwachung zu sehr auf High-Tech verlassen und in falscher Sicherheit gewähnt.13

Israel hat – davon wird allgemein ausgegangen – den oder einen der besten Geheimdienste der Welt und eine damit verwobene „Sicherheitsindustrie“, die mit ihren Produkten zur Infiltration und Auswertung als weltweit führend angesehen wird. Diese setzt seit Jahren auf Künstliche Intelligenz und die Ausnutzung von Sicherheitslücken. Die USA als enger Verbündeter überwachen seit Jahrzehnten die Metadaten der digitalen Kommunikation im „Nahen Osten“, um daraus Rückschlüsse auf bevorstehende Ereignisse zu ziehen. Israel hat vermutlich die Mittel und die Absicht, dies auch in Gaza zu tun. Es gibt unzählige Firmen, die für die US- und israelischen Geheimdienste entsprechende Dienstleistungen anbieten und dabei verschiedenste Datenquellen einbeziehen. Dies hat die Massaker vom 7. Oktober nicht verhindert und v.a. hat dies ganz offensichtlich keine Lösung oder sinnvolle Bearbeitung des zugrundeliegenden Konflikts vorangebracht. Man mag auch hier einen Solutionismus am Werke sehen, den de.wikipedia.org aktuell verkürzt zusammenfasst „als die Ideologie der Weltverbesserung durch Big Data“.14 Der Begriff und die damit verbundene Kritik wurde wesentlich geprägt durch den Technologiekritiker Evgeny Morozov, u.a. in seinem Buch mit dem vielsagenden Titel „To Save Everything, Click Here“ („Um alles zu retten, klicken Sie hier“).

Vermutlich werden die israelischen Streitkräfte noch wochen- und monatelang KI-basiert 100 oder 500 Ziele pro Tag identifizieren und bombardieren können und damit den Tod weiterer (zehn)tausender Zivilist*innen befördern. Welches politische Ziel die israelische Führung damit aber verfolgt und wie eine mögliche Lösung des Konfliktes (sonst) aussehen könnte, darüber rätselt gerade die ganze Welt.

Nachtrag vom 12. Dezember 2023: Etwa zeitgleich mit der Veröffentlichung dieses Standpunktes veröffentlichte die auf Menschen mit Behinderungen spezialisierte Hilfsorganisation Handicap International einen eindrücklichen Bericht zur Lage in den palästinensischen Gebieten, in dem sie auch auf die längerfristigen Folgen von Verstümmelung, Traumatisierung und Verwaisung eingeht. Am 11. Dezember meldeten verschiedene deutsche Medien übereinstimmend, dass nach israelischen Angaben bislang etwa 22.000 Ziele angegriffen worden seien. Unter anderem die Deutsche Welle setzte dies über einen Vergleich mit München ins Verhältnis zur Größe des Gaza-Streifens: „Das von Israel abgeriegelte palästinensische Küstengebiet am Mittelmeer ist flächenmäßig nur etwas größer als die Stadt München.“

Anmerkungen

1 „Israel has dropped the same number of bombs on Gaza in six days as during the entire 2014 conflict“, cnn.com vom 13.10.2023.

2 „447 children and 248 women among 1,417 killed in Israeli strikes in Gaza“, reuters.com vom 12.10.2023.

3 World Health Organisation: Hostilities in the occupied Palestinian territory (oPt) – Public Health Situation Analysis (PHSA), reliefweb.int.

4 „Israel’s attacks on Gaza: The weapons and scale of destruction“, aljazeera.com vom 9.11.2023.

5 „Wann Krankenhäuser für Israel legitime Ziele werden“, welt.de vom 10.11.2023.

6 „Interview mit Ehud Barak:’Das Ziel muss ein palästinensischer Staat sein’“, sueddeutsche.de vom 29.10.2023.

7 „Strafgerichtshof ermahnt Israel und Hamas“, tagesschau.de vom 3.12.2023.

8 „’The Gospel‘: how Israel uses AI to select bombing targets in Gaza“, theguardian.com vom 1.12.2023.

9 Die hierbei suggerierte vermeintlich klare Unterscheidung von Hamas-Funktionär*innen und Zivilist*innen wäre auch darüber hinaus kriegsvölkerrechtlich zu problematisieren.

10 „Die ‚Zielfabrik‘ der israelischen Armee“, zeit.de vom 3.12.2023.

11 „’Mass Assassination Factory‘: Israel Using AI to Generate Targets in Gaza, Increasing Civilian Toll“, democracynow.org vom 1.12.2023.

12 „Is the IDF’s ongoing Gaza operation complying with the laws of war?“, timesofisrael.com vom 25.10.2023.

13 Siehe z.B.: „Years of subterfuge, high-tech barrier paralyzed: How Hamas busted Israel’s defenses“, timesofisrael.com vom 11.10.2023; sowie: „Report: Israel’s heavy reliance on technology failed to protect it“, www.middleeastmonitor.com vom 19.10.2023.

14 de.wikipedia.org/wiki/Solutionismus (Stand 8.12.2023)